5 research outputs found

    Modelling Instance-Level Annotator Reliability for Natural Language Labelling Tasks

    Full text link
    When constructing models that learn from noisy labels produced by multiple annotators, it is important to accurately estimate the reliability of annotators. Annotators may provide labels of inconsistent quality due to their varying expertise and reliability in a domain. Previous studies have mostly focused on estimating each annotator's overall reliability on the entire annotation task. However, in practice, the reliability of an annotator may depend on each specific instance. Only a limited number of studies have investigated modelling per-instance reliability and these only considered binary labels. In this paper, we propose an unsupervised model which can handle both binary and multi-class labels. It can automatically estimate the per-instance reliability of each annotator and the correct label for each instance. We specify our model as a probabilistic model which incorporates neural networks to model the dependency between latent variables and instances. For evaluation, the proposed method is applied to both synthetic and real data, including two labelling tasks: text classification and textual entailment. Experimental results demonstrate our novel method can not only accurately estimate the reliability of annotators across different instances, but also achieve superior performance in predicting the correct labels and detecting the least reliable annotators compared to state-of-the-art baselines.Comment: 9 pages, 1 figures, 10 tables, 2019 Annual Conference of the North American Chapter of the Association for Computational Linguistics (NAACL2019

    Optimering av en Yatzytur genom utvÀrdering av alla inom turen nÄbara tillstÄnd

    No full text
    I denna rapport beskrivs en metod för att kunna optimera den förvÀntade resultatet frÄn en tur under en omgÄng av Yatzy. Yatzy Àr ett klassiskt tÀrningsspel som kan spelas ensam eller med flera spelare. Det finns sedan tidigare en matematiskt optimal strategi för hur man bÀst bör gÄ tillvÀga för att optimera det förvÀntade slutresultatet frÄn en omgÄng Yatzy, först beskriven av James Glenn för amerikanska regler och sedan applicerad pÄ svenska regler av Markus Larsson och Andreas Sjöberg, som bygger pÄ att bygga upp en graf över alla möjliga tillstÄnd under spelets gÄng. I denna rapport beskrivs en mer begrÀnsad version av denna metod,som endast bygger upp en graf över de möjliga tillstÄnden för den nuvarande turen, med syfte att minska berÀkningstid och minnesÄtgÄng för att lagra grafen.Metoden har visat sig vara tillrÀckligt snabb för anvÀndning i begrÀnsade miljöer sÄsom mobila plattformar, och den genomsnittliga slutpoÀngen efter ett fÀrdigt spel har efter 10 000 simuleringar berÀknats som ungefÀr 198,6 poÀng, runt 50 poÀng sÀmre Àn Larsson och Sjöbergs metod, och 175 poÀng sÀmre Àn den högsta möjliga slutpoÀngen 374. Den Àr Àven 12 poÀng sÀmre Àn en heuristisk beskriven av Nils Dahlbom Norgren och Philip Svensson, men metoden som beskrivs i denna rapport har fördelen att beslutsfattningsstrategierna Àr enklare att modifiera

    Ökad talarinvarians i obevakad talinlĂ€rning genom partitionering av probabilistiska modeller med hjĂ€lp av linjĂ€ra siamesiska nĂ€tverk

    No full text
    Unsupervised learning of speech is concerned with automatically finding patterns such as words or speech sounds, without supervision in the form of orthographical transcriptions or a priori knowledge of the language. However, a fundamental problem is that unsupervised speech learning methods tend to discover highly speaker-specific and context-dependent representations of speech. We propose a method for improving the quality of posteriorgrams generated from an unsupervised model through partitioning of the latent classes discovered by the model. We do this by training a sparse siamese model to find a linear transformation of input posteriorgrams, extracted from the unsupervised model, to lower-dimensional posteriorgrams. The siamese model makes use of same-category and different-category speech fragment pairs obtained through unsupervised term discovery. After training, the model is converted into an exact partitioning of the posteriorgrams. We evaluate the model on the minimal-pair ABX task in the context of the Zero Resource Speech Challenge. We are able to demonstrate that our method significantly reduces the dimensionality of standard Gaussian mixture model posteriorgrams, while also making them more speaker invariant. This suggests that the model may be viable as a general post-processing step to improve probabilistic acoustic features obtained by unsupervised learning.Obevakad inlÀrning av tal innebÀr att automatiskt hitta mönster i tal, t ex ord eller talljud, utan bevakning i form av ortografiska transkriptioner eller tidigare kunskap om sprÄket. Ett grundlÀggande problem Àr dock att obevakad talinlÀrning tenderar att hitta vÀldigt talar- och kontextspecifika representationer av tal. Vi föreslÄr en metod för att förbÀttra kvaliteten av posteriorgram genererade med en obevakad modell, genom att partitionera de latenta klasserna funna av modellen. Vi gör detta genom att trÀna en gles siamesisk modell för att hitta en linjÀr transformering av de givna posteriorgrammen, extraherade frÄn den obevakade modellen, till lÄgdimensionella posteriorgram. Den siamesiska modellen anvÀnder sig av talfragmentpar funna med obevakad ordupptÀckning, dÀr varje par bestÄr av fragment som antingen tillhör samma eller olika klasser. Den fÀrdigtrÀnade modellen görs sedan om till en exakt partitionering av posteriorgrammen. Vi följer Zero Resource Speech Challenge, och evaluerar modellen med hjÀlp av minimala ordpar-ABX-uppgiften. Vi demonstrerar att vÄr metod avsevÀrt minskar posteriorgrammens dimensionalitet, samtidigt som posteriorgrammen blir mer talarinvarianta. Detta antyder att modellen kan vara anvÀndbar som ett generellt extra steg för att förbÀttra probabilistiska akustiska sÀrdrag frÄn obevakade modeller
    corecore